Потоковая передача данных в нескольких облаках

1. Введение

b412875666fceda8.png

Последнее обновление: 08.02.2022

Зачем нужна потоковая передача данных в нескольких облаках?

Предприятия активно стремятся распределять свои рабочие нагрузки между несколькими облачными платформами, поскольку внедрение нескольких облачных провайдеров в операционный процесс бизнеса имеет ряд преимуществ, таких как:

  • Привязка к поставщику
  • Снижение рисков обеспечения непрерывности бизнеса
  • Зависимости и опора на один технологический стек

Что вы построите

В этом практическом задании вы настроите потоковую передачу данных между AWS и GCP в нескольких облачных средах, используя Confluent Cloud. Вы выполните следующие действия:

  • Настройте выделенный кластер Kafka в Confluent Cloud на GCP.
  • Настройте пиринг VPC между Confluent Cloud и вашим проектом GCP, чтобы к нему можно было получить доступ из частной сети.
  • Настройте VPN-туннель между вашим проектом AWS и проектом GCP, чтобы ресурсы обоих гипермасштабируемых провайдеров могли взаимодействовать.
  • Получите доступ к Confluent Kafka из AWS и настройте потоковый конвейер передачи данных из AWS в GCP, используя Confluent Kafka Cloud.

Что вы узнаете

  • Как настроить пиринг VPC между Confluent Cloud Kafka и вашим проектом GCP.
  • Как настроить VPN-туннель между проектами AWS и GCP.
  • Как получить доступ к Confluent Cloud, размещенному в GCP, из вашего проекта AWS.

Данный практический урок посвящен созданию системы потоковой передачи данных в мультиоблачной среде. Несущественные концепции и фрагменты кода опущены и предоставлены для простого копирования и вставки.

Что вам понадобится

  • Доступ к проекту AWS.
  • Доступ к проекту GCP.
  • Опыт работы с облачными платформами GCP и AWS.
  • Подписка на Confluent Kafka через GCP Marketplace.

2. Настройка

Настройте VPN-соединение между AWS и GCP.

  • В этой демонстрации используется VPC по умолчанию (asia-southeast1) в GCP и ng-vpc-103-mum (ap-south1) в AWS.

eac371e8af07fc0c.png

c76e9c670e4f8cca.png

  • В AWS создайте шлюз клиента (Customer Gateway) и виртуальный частный шлюз (VPG). Подключите VPG к AWS VPC.

55a075a6b951b5df.png

fe23f4315e9369ec.png

  • Создайте VPN-соединение между сайтами на AWS.

4c59066457f3ff9.pnga2dde7c3e7cf82e9.png

  • Загрузите файл конфигурации туннеля, созданного в AWS. Выберите
  • Поставщик: Generic
  • Платформа: Универсальная
  • Программное обеспечение: не зависит от поставщика.
  • Версия Ike: Ikev2
  • Создайте VPN-шлюз и VPN-туннель в GCP.

8d167a30913a46e1.png

Укажите IP-адрес и ключ Ikev2 из загруженного файла конфигурации AWS для обоих туннелей.

  • После завершения процесса туннель должен быть запущен и работать на AWS и GCP.

baca51d151d7c40.png

ceefee82994ef2d4.png

Монтаж туннеля завершен.

  • Выберите блок CIDR, который будет использоваться для настройки Confluent Cloud. Добавьте его в VPN-туннель в качестве статического маршрута в AWS.

219fa91dc84bd751.png

Confluent Kafka на торговой площадке GCP

  • Подпишитесь на Confluent Kafka через GCP Marketplace.

380b8221724e91d7.png

  • Войдите в облако Confluent и создайте выделенный кластер.

54611bb3ba91a867.png

7e3b9fec07478fc5.png

  • Укажите идентификатор проекта GCP, а также сведения о сети VPC для установления пиринга.

544ea2152de6d447.png

  • Завершите настройку пиринга VPC на стороне GCP, используя предоставленные данные о сети кластера Confluent Cloud.

a791c93028f46a10.png

  • Кластер Confluent Cloud активирован и теперь имеет пиринговое соединение с GCP.

c9ebd43fab4a8db6.png

  • Проверьте подключение к кластеру Confluent из GCP.
  • Создайте экземпляр GCE и установите Python3.
  • Сгенерируйте ключ клиента Python в Confluent Cloud.

969ce69a57fda7db.png

  • Запустите тестовый скрипт "producer.py" из экземпляра GCP:

aaede917f462b5b9.png

  • Теперь загрузите пример кода на экземпляр AWS и выполните скрипт "producer.py", чтобы проверить гибридное подключение к Confluent Cloud из GCP.

94da3d8c20f8b234.png

3. Поздравляем!

Поздравляем, вы успешно создали свою многооблачную кросс-региональную платформу потоковой передачи данных Confluent Kafka на базе AWS и GCP.

Полезные кодовые лаборатории?

Посмотрите некоторые из этих практических занятий по программированию...

Дополнительная информация